Tarea 2 Francisco Bahena

Primera sección

  1. Por qué una matriz equivale a una transformación lineal entre espacios vectoriales ?

Por qué el resultado de la transformación a un vector, siempre es una combinación lineal entre los elementos el vectors elmentos de la matrix y lo la multiplicación de los elementos del vector por constantes más la suma de sus elementos multiplicados.

Durante la transformación, se pueden colapsar dimensiones, por lo que si estabas en el espacio vectorial Rn, puedes acabar en Rm.

Ejemplo :
$$Ax = v$$ dónde $A = \left( \begin{array}{ccc} 1 & 0 & -1 \\ 3 & 1 & 2 \end{array} \right)$ es una matriz de $ 2 x 3 $ filas y $ p = \left(\begin{array}{ccc} x \\ y \\ z \end{array} \right)$ es un vector de $ 3\hspace{3mm}x \hspace{3mm}1 $ Eso implica que: $ v = \left(\begin{array}{ccc} x - z \\ 3x + y + 2z \end{array} \right )$ por lo que podemos decir que A es una función linear que: $$ f : \Bbb R^3 \rightarrow \Bbb R^2 $$

  • Cuál es el efecto de una transformación lineal de una matriz diagonal y una ortogonal ?

El efecto de una transformación lineal de una matriz diagonal equivale a multiplicar por los elementos de la diagonal los elementos del vector sobre el que se efectua la transformación, un reescalamiento. Esto se traduce en una especia de rescalamiento del vector pero elemento a elemento. Una especia de multiplicación escalar elemento a elemento sobre la diagonal principal.

Entonces el vector no cambia de dimensión, pero si puede cambiar de dirección.

Sea $A = \left( \begin{array}{ccc} 2 & 0 \\ 0 & 3 \end{array} \right)$ y $v = \left( \begin{array}{ccc} x \\ y \end{array} \right)$

Al aplicar la tansformación te quedas con el producto de los elementos por la diagonal:

$$ A * v = \left( \begin{array}{ccc} 2x \\ 3y \end{array} \right)$$

Con respecto a la matriz ortogonal, esta tiene la propiedad de que la inversa es la transpuesta. La transformación de una matriz ortogonal siempre corresponde a una rotación de un vector. El determinante siempre es $1$ o $-1$, por lo que no hay deformación, sólo rotación. Las columnas de la misma matriz constituyen vectores ortonormales.

  • Que es la descomposición en valores singulares

La descomposición en valores singulares de una matriz es la factorización de la misma en otras 3 matrices. Cada un es una transformación lineal. La primera y la tercera es una rotación y la segunda es un cambio de dirección.

  • Qué es diagonalizar una matriz y que representan los eigenvectores

Diagonalizar una matriz es, encontrar los vectores asociados a esa matriz para los cuales una transformación lineal sólo los reescala por un factor llamado lamda, no los rota o gira.

  • Intuitivamente que representan los eigenvectores

Los eigenvectores representan precisamente a estos vectores que, al aplicarles la transformación lineal A, sólo se reescalan. Sin cambiar dirección. El factor de rescalamiento es lamda.

  • Como interpretas la descomosicion en valores singulares como una composición de tres tipos de transformacions linales simples.

La descomposición de valores singulares es descomponer una transformación lineal, (toda matriz A), en 3 transformaciones, dos rotaciones o reflecciones, (La primera y tercera matriz, que son ortogonales), y un reescalamiento. El reescalamiento se hace con las raices de los eigenvalores del producto de A transpuesta por A, de la matriz original. La primera rotacion U, se obtiene a partir de los eigenvectores normalizados de Atranspuesta por A, la segunda rotación se obtiene a partir de los eigenvectores normalizados de A por Atranspuesta.

  • Qué relación hay entre la descomposición en valores singulares y la diagonalización.?

Que uno de los componentes de la descomposición es una matríz diagonal.

  • Cómo se usa la descomposición en valores singulares para dr una aproximación de una matriz de rango menor.

Se discriminan los valores singulares de mayor a menor y se toman los k más importantes. Se aplica la SVD pero sólo con K valores singulares, por ende U tiene los K autovctores asociados en sus columnas y V transpuesta tiene los K autovectores asociados en sus filas, y ya se tiene una aproximación de la matriz original A.